首页> 外文OA文献 >Determining an inter-rater agreement metric for researchers evaluating student pathways in problem solving
【2h】

Determining an inter-rater agreement metric for researchers evaluating student pathways in problem solving

机译:确定研究者评估问题解决过程中学生途径的评估者间协议度量

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

A new inter-rater agreement metric (IRRA) was developed for measuring agreement between multiple research coders when they code activities as they observe student problem-solving sessions. The complex nature of the student data includes activities that 1) are dependent on prior activities, 2) are ordinal data types, 3) can occur at any point in time, and 4) can reoccur. The assumptions used in traditional inter-rater agreement metrics are violated in this context and may lead to erroneous conclusions in particular datasets. In this study, coded activities are considered to be a sequence codes that can be analyzed using a string matching algorithm. We evaluated the metric\u27s performance by simulating the variability of coders in a controlled fashion. The results show that the algorithm performed well as an inter-rater agreement metric over a wide range of conditions.
机译:开发了一种新的评估者间协议度量标准(IRRA),用于衡量多个研究编码员在观察学生解决问题的会话时编写活动的编码。学生数据的复杂性包括以下活动:1)依赖于先前的活动; 2)是有序数据类型; 3)可以在任何时间点发生; 4)可以再次发生。在这种情况下违反了传统的评估者之间协议度量标准中使用的假设,并且可能导致特定数据集中的错误结论。在这项研究中,编码活动被认为是可以使用字符串匹配算法进行分析的序列码。我们通过以受控方式模拟编码器的可变性来评估指标的性能。结果表明,该算法在多种条件下均能很好地用作评分者之间的一致性指标。

著录项

  • 作者

    Sullivan, Austin David;

  • 作者单位
  • 年度 2014
  • 总页数
  • 原文格式 PDF
  • 正文语种 en
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号